Logo

Tìm kiếm: Bộ nhớ HBM

NVIDIA GeForce RTX 50
NVIDIA GeForce RTX 50 "Blackwell": GPU thế hệ tiếp theo mang đến hiệu năng và hiệu quả cao hơn

NVIDIA đang chuẩn bị cho các GPU thế hệ tiếp theo của mình, GeForce RTX 50 "Blackwell", và những rò rỉ mới nhất cho thấy chúng sẽ được trang bị công nghệ tiên tiến. Theo các nguồn tin đáng tin cậy, GPU Blackwell sẽ được xây dựng trên tiến trình 3nm của TSMC, mang lại những cải tiến đáng kể về hiệu quả năng lượng, hiệu suất và mật độ bóng bán dẫn.

Tác giả: Diễm Phương Diễm Phương
2730
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá

AMD đang chuẩn bị ra mắt dòng tăng tốc Instinct MI300 thế hệ tiếp theo vào tháng tới, hứa hẹn sẽ mang đến hiệu suất đột phá cho các ứng dụng AI và HPC. Dòng sản phẩm mới này bao gồm hai phiên bản: MI300X, được thiết kế dành riêng cho các ứng dụng AI chuyên dụng, và MI300A, kết hợp GPU và CPU để mang đến sự cân bằng giữa hiệu suất và tính linh hoạt.

Tác giả: Tuấn Anh Tuấn Anh
2557
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC

Samsung đang chuẩn bị giải pháp đóng gói chip tiên tiến của riêng mình để cạnh tranh với công nghệ đóng gói Cowos (chip-on-wafer-on-substrate) phổ biến rộng rãi của TSMC. Samsung dự định công bố giải pháp của mình vào năm tới và sẽ gọi nó là SAINT hoặc Samsung Advanced Interconnection Technology. SAINT sẽ được sử dụng để tạo ra nhiều giải pháp đóng gói khác nhau, bao gồm:

Tác giả: Kiên Đăng Kiên Đăng
2560
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA

Jupiter là siêu máy tính Exaflop đầu tiên của châu Âu, được trang bị siêu chip Grace Hopper GH200 của NVIDIA. Siêu máy tính này có thể được sử dụng cho cả mô phỏng và khối lượng công việc AI, điều này khác biệt với phần lớn các siêu máy tính được cài đặt ngày nay. Ngoài ra, NVIDIA cho biết GH200 của họ cung cấp năng lượng cho 40 siêu máy tính trên toàn thế giới và hiệu suất kết hợp của chúng là khoảng 200 exaflop 'AI'.

Tác giả: Mai Ngọc Mai Ngọc
2401
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
2654
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt

TSMC, nhà sản xuất chip theo hợp đồng lớn nhất thế giới, sẽ tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu ngày càng tăng từ các khách hàng lớn như NVIDIA, Apple, AMD, Broadcom và Marvell. Theo báo cáo của UDN, TSMC sẽ tăng mục tiêu sản xuất CoWoS hàng tháng của năm tới lên 20%, tương đương 35.000 wafer mỗi tháng.

Tác giả: Kiên Đăng Kiên Đăng
2315
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt

Có dấu hiệu cho thấy Nvidia và các đối tác đang chuẩn bị tiếp thị GPU A800 cho Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt. A800 của Nvidia là một GPU kiến trúc Ampere được thiết kế để tuân thủ các lệnh trừng phạt của Mỹ thông qua việc sử dụng bộ tính năng được cắt giảm. Tuy nhiên, do các lệnh trừng phạt đã được tăng cường trong những tuần gần đây, nên CPU này không thể được bán trên thị trường Trung Quốc nữa.

Tác giả: Huyền Ngọc Huyền Ngọc
2360
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
2859
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super

Nvidia gần đây đã thêm 10de:2703 (nvidia_dev.2703), một mục được mô tả là GeForce RTX 4080 Super vào trình điều khiển thử nghiệm R515, như được stefang3d từ LaptopVideo2Go phát hiện. Sản phẩm được cho là dựa trên bộ xử lý đồ họa AD103 của Nvidia, mặc dù không rõ liệu GPU có đi kèm với tất cả 10.240 lõi CUDA của nó được kích hoạt, giữ lại 9.728 lõi CUDA của GeForce RTX 4080 nhưng sử dụng xung nhịp cao hơn hay có cấu hình khác.

Tác giả: Diễm Phương Diễm Phương
2505
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
1714
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025

Samsung đã tiết lộ rằng họ dự kiến ra mắt bộ nhớ HBM4 vào năm 2025. Bộ nhớ mới sẽ có giao diện 2048-bit trên mỗi ngăn xếp, gấp đôi so với 1024-bit của HBM3.

Tác giả: Phương Anh Phương Anh
1730
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025

Samsung Electronics đã công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025, nhằm đa dạng hóa dịch vụ sản xuất để đáp ứng nhu cầu của ngành. Sang Joon Hwang, giám đốc nhóm sản phẩm và công nghệ DRAM tại Samsung Electronics, đã tiết lộ sự phát triển này trong một bài đăng trên blog tại phòng tin tức của Samsung, cho biết rằng công ty có kế hoạch nâng cao bộ phận nhớ của mình.

Tác giả: Mai Ngọc Mai Ngọc
2444
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu

Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu, có tên gọi Monaka. Bộ vi xử lý này được cho là sẽ có hiệu năng mạnh mẽ với 150 lõi Armv9 được cải tiến và khả năng sử dụng các bộ tăng tốc. Là một trong những bộ vi xử lý trung tâm dữ liệu 2nm đầu tiên, Monaka dự kiến sẽ ra mắt vào năm tài chính 2027, bắt đầu từ ngày 1 tháng 4 năm 2026 và kết thúc vào ngày 31 tháng 3 năm 2027.

Tác giả: Phương Linh Phương Linh
2454
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2391
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất

Micron đã bắt đầu gửi mẫu bộ nhớ HBM3 Gen2 thế hệ tiếp theo của mình cho khách hàng, bao gồm NVIDIA, những người đã khen ngợi hiệu năng và hiệu suất của nó. Trong cuộc gọi thu nhập vào thứ Tư, Micron dự đoán khoản lỗ "lớn hơn" trong quý tới do nhu cầu giảm từ thị trường bộ nhớ tiêu dùng. Tuy nhiên, Micron cũng tiết lộ rằng công ty đã hợp tác chặt chẽ với NVIDIA và bộ nhớ HBM3 Gen2 băng thông cao của họ dự kiến sẽ ra mắt trong các GPU AI và HPC sắp tới của Team Green trong nửa đầu năm 2024.

Tác giả: Diễm Phương Diễm Phương
2423
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2554
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
1569
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2660
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
2359
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM

Trung Quốc đang nỗ lực phát triển bộ nhớ có băng thông cao (giống HBM) cho các ứng dụng trí tuệ nhân tạo và điện toán hiệu suất cao, theo báo cáo của South China Morning Post. ChangXin Memory Technologies (CXMT) được cho là đi đầu trong sáng kiến này.

Tác giả: Huy Hoàng Huy Hoàng
1567
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1558
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: Bộ nhớ HBM

NVIDIA GeForce RTX 50
NVIDIA GeForce RTX 50 "Blackwell": GPU thế hệ tiếp theo mang đến hiệu năng và hiệu quả cao hơn

NVIDIA đang chuẩn bị cho các GPU thế hệ tiếp theo của mình, GeForce RTX 50 "Blackwell", và những rò rỉ mới nhất cho thấy chúng sẽ được trang bị công nghệ tiên tiến. Theo các nguồn tin đáng tin cậy, GPU Blackwell sẽ được xây dựng trên tiến trình 3nm của TSMC, mang lại những cải tiến đáng kể về hiệu quả năng lượng, hiệu suất và mật độ bóng bán dẫn.

Tác giả: Diễm Phương Diễm Phương
2730
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá

AMD đang chuẩn bị ra mắt dòng tăng tốc Instinct MI300 thế hệ tiếp theo vào tháng tới, hứa hẹn sẽ mang đến hiệu suất đột phá cho các ứng dụng AI và HPC. Dòng sản phẩm mới này bao gồm hai phiên bản: MI300X, được thiết kế dành riêng cho các ứng dụng AI chuyên dụng, và MI300A, kết hợp GPU và CPU để mang đến sự cân bằng giữa hiệu suất và tính linh hoạt.

Tác giả: Tuấn Anh Tuấn Anh
2557
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC

Samsung đang chuẩn bị giải pháp đóng gói chip tiên tiến của riêng mình để cạnh tranh với công nghệ đóng gói Cowos (chip-on-wafer-on-substrate) phổ biến rộng rãi của TSMC. Samsung dự định công bố giải pháp của mình vào năm tới và sẽ gọi nó là SAINT hoặc Samsung Advanced Interconnection Technology. SAINT sẽ được sử dụng để tạo ra nhiều giải pháp đóng gói khác nhau, bao gồm:

Tác giả: Kiên Đăng Kiên Đăng
2560
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA

Jupiter là siêu máy tính Exaflop đầu tiên của châu Âu, được trang bị siêu chip Grace Hopper GH200 của NVIDIA. Siêu máy tính này có thể được sử dụng cho cả mô phỏng và khối lượng công việc AI, điều này khác biệt với phần lớn các siêu máy tính được cài đặt ngày nay. Ngoài ra, NVIDIA cho biết GH200 của họ cung cấp năng lượng cho 40 siêu máy tính trên toàn thế giới và hiệu suất kết hợp của chúng là khoảng 200 exaflop 'AI'.

Tác giả: Mai Ngọc Mai Ngọc
2401
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
2654
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt

TSMC, nhà sản xuất chip theo hợp đồng lớn nhất thế giới, sẽ tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu ngày càng tăng từ các khách hàng lớn như NVIDIA, Apple, AMD, Broadcom và Marvell. Theo báo cáo của UDN, TSMC sẽ tăng mục tiêu sản xuất CoWoS hàng tháng của năm tới lên 20%, tương đương 35.000 wafer mỗi tháng.

Tác giả: Kiên Đăng Kiên Đăng
2315
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt

Có dấu hiệu cho thấy Nvidia và các đối tác đang chuẩn bị tiếp thị GPU A800 cho Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt. A800 của Nvidia là một GPU kiến trúc Ampere được thiết kế để tuân thủ các lệnh trừng phạt của Mỹ thông qua việc sử dụng bộ tính năng được cắt giảm. Tuy nhiên, do các lệnh trừng phạt đã được tăng cường trong những tuần gần đây, nên CPU này không thể được bán trên thị trường Trung Quốc nữa.

Tác giả: Huyền Ngọc Huyền Ngọc
2360
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
2859
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super

Nvidia gần đây đã thêm 10de:2703 (nvidia_dev.2703), một mục được mô tả là GeForce RTX 4080 Super vào trình điều khiển thử nghiệm R515, như được stefang3d từ LaptopVideo2Go phát hiện. Sản phẩm được cho là dựa trên bộ xử lý đồ họa AD103 của Nvidia, mặc dù không rõ liệu GPU có đi kèm với tất cả 10.240 lõi CUDA của nó được kích hoạt, giữ lại 9.728 lõi CUDA của GeForce RTX 4080 nhưng sử dụng xung nhịp cao hơn hay có cấu hình khác.

Tác giả: Diễm Phương Diễm Phương
2505
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
1714
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025

Samsung đã tiết lộ rằng họ dự kiến ra mắt bộ nhớ HBM4 vào năm 2025. Bộ nhớ mới sẽ có giao diện 2048-bit trên mỗi ngăn xếp, gấp đôi so với 1024-bit của HBM3.

Tác giả: Phương Anh Phương Anh
1730
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025

Samsung Electronics đã công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025, nhằm đa dạng hóa dịch vụ sản xuất để đáp ứng nhu cầu của ngành. Sang Joon Hwang, giám đốc nhóm sản phẩm và công nghệ DRAM tại Samsung Electronics, đã tiết lộ sự phát triển này trong một bài đăng trên blog tại phòng tin tức của Samsung, cho biết rằng công ty có kế hoạch nâng cao bộ phận nhớ của mình.

Tác giả: Mai Ngọc Mai Ngọc
2444
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu

Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu, có tên gọi Monaka. Bộ vi xử lý này được cho là sẽ có hiệu năng mạnh mẽ với 150 lõi Armv9 được cải tiến và khả năng sử dụng các bộ tăng tốc. Là một trong những bộ vi xử lý trung tâm dữ liệu 2nm đầu tiên, Monaka dự kiến sẽ ra mắt vào năm tài chính 2027, bắt đầu từ ngày 1 tháng 4 năm 2026 và kết thúc vào ngày 31 tháng 3 năm 2027.

Tác giả: Phương Linh Phương Linh
2454
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2391
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất

Micron đã bắt đầu gửi mẫu bộ nhớ HBM3 Gen2 thế hệ tiếp theo của mình cho khách hàng, bao gồm NVIDIA, những người đã khen ngợi hiệu năng và hiệu suất của nó. Trong cuộc gọi thu nhập vào thứ Tư, Micron dự đoán khoản lỗ "lớn hơn" trong quý tới do nhu cầu giảm từ thị trường bộ nhớ tiêu dùng. Tuy nhiên, Micron cũng tiết lộ rằng công ty đã hợp tác chặt chẽ với NVIDIA và bộ nhớ HBM3 Gen2 băng thông cao của họ dự kiến sẽ ra mắt trong các GPU AI và HPC sắp tới của Team Green trong nửa đầu năm 2024.

Tác giả: Diễm Phương Diễm Phương
2423
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2554
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
1569
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2660
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
2359
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM

Trung Quốc đang nỗ lực phát triển bộ nhớ có băng thông cao (giống HBM) cho các ứng dụng trí tuệ nhân tạo và điện toán hiệu suất cao, theo báo cáo của South China Morning Post. ChangXin Memory Technologies (CXMT) được cho là đi đầu trong sáng kiến này.

Tác giả: Huy Hoàng Huy Hoàng
1567
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1558
Chọn trang